#AI 競賽
馬斯克:未來3年很難熬,必須做對幾件事
這個4月,AI圈簡直炸了鍋。先是DeepSeek創始人梁文鋒親自確認,新一代旗艦大模型V4將於4月下旬正式發佈,兆參數架構直接拉滿國產大模型的天花板。緊接著,阿里的HappyHorse-1.0(快樂馬)橫空出世,直接屠了全球AI視訊盲測榜,把字節、Google的頂流模型全甩在了身後。就在所有人都在熱議國產AI的高光時刻,我突然想起了馬斯克在X平台上撂下的那句話:“人工智慧將在3年後超過所有人類智能。”很多人把這兩件事分開看,把DeepSeek和HappyHorse(快樂馬)當國產AI的崛起新聞看,把馬斯克的話當“大佬的狂言”聽。但如果你把它們放在一起就會發現,這根本不是巧合,更不是單個產品的普通迭代,而是在通往AGI(通用人工智慧)的路上在加速前進。一、不是單點突破,是全球AI競賽全面打響很多人看新聞,只看到了“發佈新模型”“登頂榜單”這幾個字,卻沒看懂背後真正的份量。先說說DeepSeek V4。很多人對大模型的印象,還停留在“能聊天、能寫文案”的階段,可DeepSeek V4這次的升級,是從根上的全面革新。它用了1兆參數的MoE架構(Mixture of Experts,混合專家架構),處理速度直接比上一代飆升了35倍,能耗反而還降了40%。這是什麼概念?就是以前你花1個小時才能讓AI幹完的活,現在1分多鐘就搞定了,還比以前更省電、更便宜。更誇張的是它的“記憶力”。它的上下文窗口直接拉到了100萬token(詞元,AI處理文字的基本單位),相當於一口氣能讀完15-20本長篇小說,連裡面的人物關係、細節伏筆都記得清清楚楚,絕不會出現聊到後面,就忘了你前面說過什麼的情況。最關鍵的是,它全程基於國產華為昇騰晶片原生開發,徹底擺脫了海外算力的“卡脖子”問題,這意味著國產大模型,已經正式從“跟跑”邁入了“並跑”的核心賽道。再說說橫空出世的“HappyHorse-1.0”,這匹“快樂馬”,直接踢翻了全球AI視訊圈的牌桌。它登頂的Artificial Analysis Video Arena榜單,是目前全球公認最權威的AI視訊評測平台。它的排名機制特別殘酷,用的是國際象棋等級分制度的Elo積分制,全程純盲測。什麼意思?就是使用者完全不知道視訊是那個模型生成的,系統隨機甩兩段視訊過來,你只能憑那個畫面更流暢、更符合指令、觀感更好來投票,完全排除了所有品牌光環,只比真實體驗。不止國內在瘋狂衝刺,海外的AI賽道早就進入了“不進則亡”的競賽狀態。OpenAI、Google、Anthropic輪番發佈新模型,從文字到多模態,從推理到智能體,每一次更新都在瘋狂壓縮技術迭代的周期。更可怕的是,整個行業的頭部玩家,都在集體“跳錶”,把AI超越人類的時間線,一縮再縮。二、他們到底在慌什麼?AI的“硬起飛”就發生在眼前看到這裡,你可能會問:不就是出了兩個新模型嗎?至於這麼大驚小怪,上升到人類倒計時的地步嗎?那我再給你看馬斯克說的另一句話,他說:“我們現在就處於‘硬起飛’階段,就是現在。”什麼叫“硬起飛”?以前我們說AI發展,是“人推著AI往前走”。我們給它定目標,給它喂資料,給它調參數,手把手教它學習,它每往前走一步,都離不開人類的推動。但“硬起飛”不一樣。它是AI自己給自己踩油門,進入了自我加速的失控式增長階段。不用人催,不用人教,它自己就能完成迭代、實現突破,甚至連它進化的速度,人類都已經跟不上了。馬斯克自己是這麼描述的:“我晚上睡覺時,AI取得了一項重大突破;等我醒來,又出現了另一項突破。老實說,很難跟上節奏,這讓人有點暈頭轉向。”而這場“硬起飛”裡,最可怕的核心,是AI已經進入了“遞迴自我改進”階段。以前,我們訓練一個AI模型,要程式設計師寫程式碼,演算法工程師調參數,資料團隊清洗資料,全流程都離不開人。但現在不一樣了,新一代的AI模型,已經由上一代模型深度參與訓練了。從程式碼編寫、資料清洗,到參數調優、效果測試,AI能做的事情越來越多,人類在這個循環裡,角色越來越邊緣化,越來越插不上手。馬斯克給出了一個更讓人後背發涼的預判:“可能今年年底會實現完全自動化的自我改進,最遲不會晚於明年。”換句話說,最快今年,AI就能徹底脫離人類的輔助,完成自我迭代、自我進化,進入完全的自我加速周期。到那個時候,AI的進化速度,會快到我們根本無法想像。很多人以為,馬斯克眼裡的AI,就是能寫文案、做報表、生成視訊的工具,那你就太小看他了。他描繪的AI終極藍圖,是一個消耗比全人類文明多一百萬倍電力的智能體,能解決人類能想到的所有問題。為了突破電力這個最大的瓶頸,他甚至計畫2-3年內把AI資料中心送上太空,用太空裡沒有晝夜交替的太陽能,徹底釋放AI的算力潛力。而當AI和機器人接管了所有生產,人類社會會變成什麼樣?馬斯克的答案是:錢會變得不再重要,商品和服務的產出會遠遠超過需求,AI和機器人會把所有事都幹完,人類最終會因為全方位的服務,而“無事可做”。馬斯克和Altman(奧特曼)不是在製造焦慮,而是看到了我們普通人看不到的風景。他們怕的不是AI本身,而是人類根本沒做好準備。三、倒計時1095天,最危險的是你以為“還有時間”看到這裡,很多人心裡還是會有一個僥倖的想法:3年呢,還早,急什麼?3年,聽起來很長,其實只有1095天。就是你換2份工作的時間,就是你學一個新技能、考一個行業證書的完整周期,就是你家孩子從幼兒園升到小學的時間,一眨眼就過去了。更關鍵的是,AI的進化,從來都不是線性的,是指數級的。舉個例子:一個池塘裡的荷花,每天都會以前一天兩倍的數量開放。如果到第30天,荷花就開滿了整個池塘,那請問:荷花在第幾天開滿了半個池塘?答案不是第15天,是第29天。前29天,荷花只開了半個池塘,可第30天,一天之內,就開滿了剩下的整個池塘。這就是指數級增長的可怕之處。你以為它還很慢,還離你很遠,可等你反應過來的時候,它已經瞬間鋪滿了你的整個世界。我們現在,可能就處在這第29天的晚上。這場AI競賽,最先衝擊的,就是90%的辦公室白領工作。現在不妨停下來,問自己兩個問題:你每天的工作,有多少是AI分分鐘就能替代的?1095天之後,當AI真的超越了所有人類智能,你的核心競爭力,到底是什麼?四、不想被時代淘汰,你必須立刻做對3件事難道我們就只能等著被AI替代,一點辦法都沒有嗎?當然不是。具體該怎麼做?記住這3件事。第一件事:做決策,提問題很多人對AI的理解,完全搞反了。他們天天用AI干自己的本職工作,寫郵件、做報表、寫方案,然後把AI的產出改一改,就交上去了。看起來是省了力氣,提高了效率,可實際上,你是在天天給AI喂資料、當陪練,幫它在這場競賽裡變得越來越強,最後把自己替代掉。在德州超級工廠接受的深度訪談中,馬斯克也談到“任何涉及敲擊鍵盤、移動滑鼠、處理資訊的任務,AI都能勝任。”你要明白,AI是工具,不是你的競爭對手。工具是用來幫你幹活的,不是用來取代你的。你要做的,是使用工具的人,是決定“做什麼”“為什麼做”的人,而不是聽指令“怎麼做”的人。就像馬斯克,他不寫程式碼,不調模型參數,不親手造火箭,他做的只有一件事:決定我們要做什麼、為什麼做。他決定我們要造電動車,要去火星,要做通用人工智慧,剩下的,交給工程師和AI去執行。AI做執行,你做決策;AI給答案,你提問題;AI算資料,你定方向。不要沉迷於“把事情做對”,要學會“做對的事情”。第二件事:放棄舒適區的標準化,學習臨場發揮很多人在職場裡,追求的是“熟練工”的安全感。同一件事,我幹得比別人快,比別人熟,我就有安全感。可在AI時代,這恰恰是最危險的事。AI最擅長的,就是標準化、常規化、重複性的工作。你在這件事上越熟練,就越容易被替代。普華永道(PwC)在2025年公開承認,正在大幅縮減初級崗位招聘,審計部門的初級崗位到2028年預計將減少39%。與此同時,畢馬威英國近兩年畢業生招聘人數也從1399人降至942人,縮減近三分之一。這些變化的直接推手,正是AI。原本由初級審計員花數周時間完成的憑證核對、底稿整理、資料清洗,現在AI幾小時就能完成,且不出錯。但有趣的是,四大並沒有一刀切地砍掉所有招聘。PwC的AI鑑證負責人Jenn Kosar明確表示,公司正在把被AI釋放出來的人力,轉向戰略諮詢、複雜問題解決等更高價值的領域,甚至開始培訓初級員工“像管理者一樣思考”。因為AI能搞定99%的標準化審計流程,但遇到企業財務造假的隱蔽跡象、複雜的跨國稅務糾紛、客戶特殊訴求的權衡判斷,AI就束手無策了。你的價值,從來不是你能把常規工作做多好,而是你能處理多少AI搞不定的“異常情況”。這些“異常情況”,沒有標準答案,沒有標準化流程,需要的是你的經驗、你的判斷力、你的臨場反應,這些都是AI永遠學不會的東西。接下來,把你的時間和精力,從這些機械性的工作裡抽出來,去解決那些複雜問題,去應對那些突發狀況,去打磨那些非標準化的能力。第三件事:做與“人”打交道的事AI在虛擬的位元世界裡,可以說無所不能。那怕是這場競賽裡最頂尖的視訊模型HappyHorse(快樂馬),也只能在數字世界裡生成完美的畫面,卻無法在現實世界裡,完成一個簡單的開門動作。這就是AI最大的短板:它能玩轉虛擬的位元世界,卻搞不定真實的原子世界。就像馬斯克說的“除了必須親手操作原子、搬動物理實體的工作,人工智慧現在已經有能力完成一半以上的白領工作。”而這,恰恰是我們最大的機會。所以,我們要主動增加和真實物理世界、真實的人打交道的比重。比如,做設計的,不要只在電腦裡畫圖,多去現場看施工、和工人溝通落地細節;做電商的,不要只看後台資料,多去線下和供應鏈、使用者面對面交流;做教育的,不要只做線上標準化課件,多花時間做一對一個性化的陪伴和溝通。去深耕那些需要和真實世界、真實的人打交道的能力。你的動手能力,你的實地判斷能力,你的人際溝通能力,你的共情能力,你的線下服務能力,這些,都是AI短期內根本無法替代的。結語AI的到來,從來不是人類的末日,而是對人類的一次終極篩選。最終淘汰你的,從來不是AI,不是這場瘋狂的競賽,是那個原地不動、拒絕改變、總以為還有時間的你自己。 (筆記俠)
英媒:“電子差距”將是中國贏得AI競賽關鍵
晶片製造商輝達公司首席執行長黃仁勳表示,人工智慧(AI)就像一塊蛋糕。聊天機器人等AI應用位於最頂層;往下一層是軟體,比如支撐聊天機器人運行的大語言模型等;再往下是硬體,即訓練AI模型所需的半導體。今年春天,中國的AI公司正忙著打造這塊蛋糕的每一層。字節跳動推出了一款新的視訊生成應用。備受矚目的AI初創企業深度求索(DeepSeek)即將發佈一款功能強大的新大語言模型。而中國科技巨頭華為將推出一款新的AI晶片。儘管這些企業讓中國在美中AI競賽中保持競爭力,但它們並未推動中國取得領先地位。不過在黃仁勳所描繪的AI蛋糕中,還有位於最底下的一層,那就是能源。半導體需要消耗大量能源才能完成支撐AI模型的數兆次計算,而中國電網提供的廉價電力遠超西方。這種差異被稱為“電子差距”。中國能否利用這一優勢來取得AI領導地位?中國電網優勢顯著美國公司似乎對這一前景感到擔憂。開放人工智慧研究中心(OpenAI)首席執行長薩姆·奧爾特曼預測,AI的成本“最終將與能源成本趨於一致”。去年10月,該公司曾警告稱,中國的電力優勢可能“危及我們(在AI領域的)領導地位”。次月,黃仁勳基於同樣的理由預測,中國“將在AI競賽中勝出”。今年1月,另一家美國人工智慧公司xAI公司的老闆埃隆·馬斯克表示,鑑於中國的電網優勢,“根據當前趨勢,中國在AI算力方面將遠超世界其他地區”。AI企業對能源供應的擔憂正日益加劇。為了支援更智能的模型,它們正在建造規模更大、能耗更多的資料中心。其中一些資料中心的規模已達到吉瓦(GW)等級——相當於一座核電站的發電能力。據美國智庫蘭德公司的研究人員稱,到2027年,全球範圍內AI資料中心對電力的需求可能激增至68吉瓦,到2030年則可能達到327吉瓦。美國日益老化的電網已經難以跟上需求的增長。大量資料中心正排隊等待接入電網。企業還面臨當地居民的反對,因為資料中心可能會推高居民使用者的電價。一些公司正在建設自己的離網發電機。還有企業提出諸如在太空而非在美國境內建設資料中心等想法。一家半導體公司表示:“許多AI項目如今面臨的制約因素不是晶片供應,而是有沒有可靠充足的電力供應。”中國則無需為此擔憂。它擁有全球規模最大的電網,並且得益於國家的大力投資,其電網仍在以驚人的速度擴張。僅去年一年,它就新增裝機容量500多吉瓦,總發電裝機容量達到3800吉瓦,是美國的兩倍多。未來五年,中國新增裝機容量預計將是其競爭對手的六倍。風電和太陽能發電項目的蓬勃發展正推動著這一增長。全球一半的核電站建設項目也落戶中國。根據官方資料,中國資料中心的電力成本約為每千瓦時3美分,僅為許多美國資料中心電力成本的一半左右。而且由於政府單獨制定居民電價,耗電量大的基礎設施項目幾乎不會引發民眾反對。算力建設迎來突破不過,儘管人們對中美之間的“電子差距”感到擔憂,但中國尚未將這一優勢利用起來。中國的算力基礎設施遠未達到其電力供應所能支撐的水平。但有跡象表明,中國很快將開始利用其電力優勢。今年的政府工作報告中首次提及“超大規模智算叢集”,並承諾今年將啟動“算電協同等新基建工程”。與此同時,中國正加大力度投資建設超大規模算力設施。據瑞銀分析師廖啟華預計,到2029年,中國將新增25吉瓦的AI資料中心——相比之下,過去兩年僅新增5吉瓦。廖啟華指出,要想以這種速度進行擴張,關鍵在於中國能否在國內製造更多高端晶片。其多年來為此付出的努力正在結出碩果。中國自主研發的AI晶片雖然性能仍不及美國產品,但通過大量堆疊,可以縮小兩者之間的性能差距。雖然這會消耗更多能源,但在電力成本低廉的情況下,這一點並不那麼重要。官員們正鼓勵西部各省建設資料中心,這些地區擁有豐富的風能、太陽能和水力資源(且平均氣溫較低)。到2028年,中國希望將所有這些資料中心連接起來,成為統一的資源池,以實現在全國範圍內提供廉價算力資源這一目標。廈門大學中國能源政策研究院的林伯強認為,到本世紀20年代末,這些舉措應該能使中國憑藉電力優勢完全彌補其在晶片領域的短板。他說:“我們所要做的就是繼續建設。”就目前而言,中國主要專注於部署AI應用:努力將AI工具推廣到更廣泛的經濟領域,以提升生產效率。充足的能源以及較廉價的AI模型應該會有所幫助,因為企業將更有可能實際使用這些模型。對於像奧爾特曼這樣的美國科技大佬來說,中美“電子差距”在涉及通用人工智慧(AGI)這一概念時更令人擔憂。AGI消耗的電力可能遠超今天最先進的AI模型。那麼,中國會是最終開發出AGI的國家嗎?今年3月,中國為2026年至2030年發佈了新的五年規劃,其中提到探索AGI的發展路徑。 (參考消息智庫)
美國3960座,中國第三:AI時代真正的差距,終於藏不住了
很多人以為,AI競爭發生在模型之間。有人討論參數規模,有人關注晶片性能,也有人爭論誰的演算法更先進。但2026年的一組全球資料,卻揭開了一個更殘酷的現實——美國擁有3960座資料中心。而排名第二到第十五的國家加起來,才勉強接近這個數字。這意味著,當世界還在討論AI未來時,真正支撐人工智慧運行的底層戰爭,其實早已開始。甚至,在某種程度上,勝負已經初步分出。一、AI時代最重要的資源,不是模型今天你打開手機:一次ChatGPT對話、一次短影片推薦、一次雲端檔案同步、一次自動駕駛訓練——背後都不是“軟體”。而是一座座全天候運轉的資料中心。這些建築看似普通,卻是這個時代最昂貴、最耗能、也最關鍵的基礎設施。一個大型AI資料中心通常意味著:數十萬張高性能計算卡持續運行巨量電力供應系統工業級散熱設施全球網路交換節點訓練一次先進AI模型,所消耗的電力,甚至相當於一個小城市數天用電量。於是,一個越來越清晰的邏輯出現:AI競爭,本質是算力競爭。算力競爭,本質是資料中心競爭。二、一張全球地圖,看懂真正的差距根據2026年全球資料中心統計:第一名與第二名之間,差距接近8倍。這不是領先。這是基礎設施層面的代際鴻溝。換句話說——全球網際網路的“物理核心”,仍然集中在美國。三、為什麼美國能形成壓倒性優勢?很多人會疑惑:中國擁有全球最大網際網路人口,為何資料中心數量卻明顯落後?答案並不複雜。1. 雲端運算霸權的歷史積累過去十五年,美國科技公司完成了一件極其關鍵的事情:提前建設全球雲基礎設施。全球三大雲服務體系——Amazon AWS、Microsoft Azure、Google Cloud幾乎建構了現代網際網路的底層運行環境。當AI浪潮突然爆發時,美國並不是追趕者,而是已經擁有完整高速公路的玩家。2. 資料天然向平台集中網際網路世界存在一個鐵律:資料,會流向平台。而全球最核心的平台公司,大多誕生於美國。平台在哪裡,資料中心就在哪裡。長期積累之下,美國形成了全球最大的算力網路。3. 被忽視的關鍵變數:電力AI時代,一個真正稀缺的資源正在浮現——電力。超大型資料中心往往需要數百兆瓦穩定供電。美國擁有:成熟電網體系低成本土地能源供應多樣性弗吉尼亞州甚至被稱為“世界網際網路首都”,全球大量網路流量在此交換。AI,本質上正在變成能源產業。四、歐洲:穩定,卻難以爆發歐洲的資料中心呈現明顯叢集:英國、德國、法國、荷蘭構成核心節點。優勢在於:網路連線密集企業數位化需求強金融資料交換頻繁但現實限制同樣明顯:能源價格高環保監管嚴格電力擴容困難歐洲因此成為全球算力體系中的“穩定樞紐”,而非增長引擎。五、真正的變數,在亞洲如果說美國代表現在,那麼亞洲代表未來。中國、印度、日本、印尼的資料中心數量正在快速增長。背後的推動力只有一個:需求爆炸。亞洲擁有全球最大數字人口與移動網際網路活躍度。資料產生速度,正在遠超全球平均水平。與此同時,各國開始強化資料本地化政策:資料必須儲存在本國。這直接推動本土資料中心建設進入加速週期。一個新概念開始出現:算力主權。未來國家競爭,不僅是晶片或模型競爭,而是——是否擁有獨立運行AI的能力。六、AI戰爭,正在從晶片轉向電力過去三年,人們關注GPU。未來十年,競爭焦點將轉向:電網容量能源結構資料中心密度散熱效率越來越多科技公司開始直接投資能源項目。原因極其簡單:沒有電,就沒有AI。科技競爭,重新回到了工業基礎能力。七、資料中心,正在重塑全球經濟版圖歷史上:港口決定貿易中心;鐵路決定工業城市;石油決定能源格局。而今天:資料中心正在決定數字經濟中心。算力叢集出現的地方,將吸引:AI企業創業資本雲生態高端就業新的城市競爭邏輯已經誕生——不是誰樓更高,而是誰的算力更強。八、未來十年:世界或進入“三極算力時代”全球算力格局正在走向三極結構:美國:絕對領先的AI訓練核心歐洲:全球資料交換樞紐亞洲:增長最快的算力需求中心真正的懸念只有一個:亞洲能否在規模上追趕美國?2026資料中心十大趨勢:AI、可持續與創新AI驅動需求爆炸:到2030年,資料中心需求近三倍增長,主要因AI。      GPU密集型工作負載讓能耗翻倍。液冷革命:傳統風冷不足,液冷部署從2025年的33%升至2026年的40%。**hyperscale主導**:大型企業轉向超大規模中心,到2030年佔61%容量。綠色能源轉型:資料中心投資佔全球綠地投資20%,焦點在可再生能源。邊緣計算加速:5G推動資料中心向使用者端遷移,減少延遲。供應鏈挑戰:稀土元素短缺影響晶片生產。許可競賽:各國加快審批,歐洲GW級校園湧現。混合雲最佳化:企業      repatriation 資料,回遷到本地以控成本。量子準備:2026年是量子計算就緒年,資料中心需升級。投資熱潮:全球承諾供應量是建設中的數倍,亞太增長32.9%      CAGR。這些趨勢表明,資料中心不止是“倉庫”,而是創新引擎。結語:AI革命,其實非常“物理”很多人認為AI存在於雲端。但現實恰恰相反。AI存在於:發電廠旁,光纖節點下,以及無數晝夜運轉的伺服器機房中。當演算法逐漸普及、模型逐漸開源之後,真正稀缺的,將不再是程式碼。而是——持續運行智能的能力。21世紀的競爭,不再只是科技競爭。而是算力、能源與基礎設施的綜合競爭。未來世界的權力結構,也許將由一個看似低調的指標決定:一個國家,究竟擁有多少座資料中心。 (ForceInstitute)
AI“軍備競賽”,亞馬遜輸不起的戰爭
對於經營業績愈發依賴雲端運算業務的亞馬遜來說,這場愈演愈烈的AI“軍備競賽”已經是一場輸不起的戰爭。1. 單季度營收突破2000億美元近日,亞馬遜公佈了截至12月31日的2025年第四季度及全年財報。資料顯示,2025年第四季度,亞馬遜實現營收2134億美元,同比增長14%,這也是單季度營收規模首次突破2000億美元大關。同期,亞馬遜實現淨利潤212億美元,同比增長6%,稀釋後每股收益為1.95美元,略低於市場預期的1.97美元。2025年全年,亞馬遜營收規模達到7169億美元,同比增長12%,營收規模首次突破7000億美元大關。同期,亞馬遜淨利潤從2024年的592億美元飆升至777億美元,同比增幅達到31%。在全球經濟環境並不明朗的大背景下,亞馬遜盈利能力得到了顯著提升。作為全球最大的電商平台,亞馬遜最初以線上書店的形式誕生於1994年,由傑夫·貝索斯創立。此後,憑藉著貝索斯本人所堅守的長期主義、顧客至上等經營理念,亞馬遜迅速發展為集電商、雲端運算、人工智慧與線下實體店於一體的消費和科技巨頭,同時也是繼蘋果之後,美國第二家市值破兆美元的上市公司。從營收構成上看,亞馬遜主營業務共分為零售業務和雲端運算服務兩大類。其中,零售類股屬於公司的基本盤,具體又可細分為線上商店、線下零售(實體店)、第三方商家服務(線上3P賣家佣金與履約費)、會員與訂閱服務及線上廣告等五部分。財報顯示,2025年第四季度,亞馬遜線上商店業務實現營收829.88億美元,同比增長10%;實體店業務實現營收58.55億美元,同比增長5%;第三方賣家服務實現營收428.16億美元,同比增長11%;訂閱服務實現營收131.22億美元,同比增長14%;廣告業務實現營收213.17億美元,同比增長23%。分區域來看,亞馬遜零售業務又可以分為北美市場和國際市場兩大部分,主要涵蓋公司從北美和世界其他地區的零售以及這些地區的訂閱和出口銷售中所獲得的收入。其中,北美業務屬於公司的核心營收支柱。財報顯示,2025年第四季度,亞馬遜北美地區實現銷售額1270.83億美元,同比增長10%,營業利潤達到93億美元,同比增長24%,盈利能力顯著提升。同期,亞馬遜國際電商實現營收507億美元,同比增長17%,營收增速高於北美地區,主要受益於新興市場的業務拓展及海外電商滲透率提升。受海外市場競爭加劇、物流成本上升及局部地區業務調整影響,亞馬遜國際業務營業利潤同比下降23%至10億美元,盈利能力相對微薄,整體上看仍處於業務最佳化階段。2. 雲業務貢獻超6成利潤相比平穩增長的零售業務,亞馬遜雲業務更為外界所關注。2025年第四季度,AWS業務實現銷售額356億美元,同比增長24%,營收增速創下13個季度以來新高,成為本季度財報最大亮點。同期,AWS業務實現營業利潤125億美元,同比增長18%,營業利潤率35.0%。2025年全年,AWS業務共實現營收1287億美元,同比增長20%,收入佔比達到18%,雲業務持續成為推動亞馬遜營收增長的一大動力。此外,從利潤貢獻度來看,AWS業務2025年為亞馬遜貢獻了公司超過60%的營業利潤,成為公司最為重要的“現金牛”業務。2006年,亞馬遜創始人貝索斯發表了關於雲端儲存和雲端運算的概念演講,並宣佈投資創立雲端運算AWS。同年,亞馬遜雲科技(AWS)正式發佈Amazon EC2和Amazon S3服務,這標誌著雲端運算作為一種商業服務正式誕生,亞馬遜也由此奠定了在雲端運算領域的霸主地位。作為貝索斯的首任“影子顧問”,安迪·傑西與貝索斯共同提出了建構雲端運算平台(AWS)的構想。自AWS上線以來,安迪·傑西便帶領團隊持續最佳化AWS的產品與服務。在競爭策略上,安迪·傑西為壓制對手多次主動發起價格戰,讓AWS保持了全球第一的市場領先地位,並牢牢把控住了全球雲端運算的主導權。2021年7月,貝索斯宣佈退休,安迪·傑西憑藉其主政亞馬遜AWS的出色表現登上了亞馬遜公司整體業務掌門人的寶座。不過,隨著微軟、Google等競爭對手的持續發力,亞馬遜雲業務的霸主地位不斷受到衝擊,安迪·傑西本人也一度遭到投資者的質疑。根據Canalys統計資料,2017年,亞馬遜雲在全球IaaS公有雲服務市場的份額高達49.4%,微軟雲(Azure)市場份額僅為12.7%。此後,微軟Azure迅速發展,兩者的市佔率差距不斷縮小。根據Synergy Research Group最新資料,2025年第四季度,亞馬遜在公有雲市場的市場份額約為28%,在主要雲服務提供商中依然保持著領先地位。微軟以21%的市場份額位居第二,Google市場份額約為14%,三大雲服務提供商控制了公有雲市場68%的份額。但從營收增速來看,AWS四季度的營收增速(24%)明顯不及微軟Azure(39%)和Google雲(48%),微軟Azure仍是AWS在雲服務市場中一個巨大的威脅。3. 自研晶片年化收入超百億美元整體來看,亞馬遜交出了一份可圈可點的四季度成績單,無論是零售業務還是雲業務表現均超出市場預期。對此,公司總裁兼首席執行長安迪·傑西表示:“AWS業務增長24%,創下13個季度以來最快增速,廣告業務增長22%,北美和國際市場的實體店業務快速增長,晶片業務同比增長超過三位數——這些增長得益於我們持續快速創新,並不斷髮現和解決客戶痛點。”安迪·傑西同時表示,鑑於市場對公司現有產品和服務的強勁需求,以及人工智慧、晶片、機器人和近地軌道衛星等前沿領域的機遇,預計2026年亞馬遜將在資本支出方面投入約2000億美元。資料顯示,2025年全年,亞馬遜資本開支為1310億美元。這就意味著,亞馬遜2026年資本開支增幅將達到52%,這一增幅明顯超出公司現階段營收增速(14%),同時也大幅高於此前華爾街分析師的預估資料(1447億美元)。因此,亞馬遜四季度財報一經公佈,公司股價在盤後交易中一度暴跌超過10%。截至2月9日收盤,亞馬遜股價報收於208.72美元,總市值在三個交易日之內蒸發逾2500億美元。事實上,二級市場投資者對於科技巨頭的AI軍備競賽愈發表現出不安與恐慌。最新財報資料顯示,Google預測其2026年資本支出最高達到1850億美元,同比增幅接近翻倍;與此同時,微軟2026年的資本支出增幅也高達66%。資料公佈之後,上述兩家公司股價均遭到暴擊。其中,微軟股價單日跌幅達到9.99%,創下六年來最慘跌幅,市值單日蒸發4000億美元。有分析認為,亞馬遜、Google等公司的四季度財報資料已經表明,近年來科技巨頭在AI基礎設施上的巨額投入已經切實轉化為客戶需求與收入,這也是美股“科技7姐妹”股價迭創新高的原因所在。然而,從各大科技巨頭披露的2026年資本支出計畫來看,僅亞馬遜、微軟、Google和Meta等四家公司就準備在AI基礎設施上砸下6600億美元,這說明巨頭的花錢速度遠超過其創收速度,最終難免要犧牲企業的自由現金流。事實上,為了平衡不斷增加的AI投資,亞馬遜已經在其他領域大幅縮減支出。根據公開報導,2025年10月和2026年1月,亞馬遜連續兩次進行大規模裁員,裁員數量分別為1.4萬人和1.6萬人。2025年第四季度,亞馬遜共計提遣散費用7.3億美元。值得一提的是,與微軟、Google等科技巨頭“ALL IN AI”不同的是,亞馬遜2000億美元的資本開支中包含了龐大的電商履約網路建設,以圖最佳化公司零售業務營運效率,並持續推廣AI購物助手Rufus,提升客戶購物體驗,鞏固零售市場領先地位。此外,自研晶片的投入也是亞馬遜這筆史無前例的資本開支的一大重點。據財報披露,亞馬遜AI訓練晶片Trainium和通用處理器Graviton的合計年化收入運行率已超過100億美元,並保持三位數年增長率。其中,Trainium 2累計交付已達140萬顆;Trainium 3在2026年中旬前的供應量已被預訂一空。近年來,亞馬遜科技一直致力於自主研發人工智慧(AI)訓練晶片,以圖擺脫對於輝達的過度依賴。2025年12月3日,AWS正式推出了其最新一代產品——Trainium 3。據悉,Trainium 3是基於其尖端3奈米製程所打造,這款第三代晶片及其配套系統在訓練和高負載推理場景下的速度較上一代產品提升超過4倍,記憶體容量也增至4倍。包括Anthropic、日本大語言模型公司Karakuri、SplashMusic以及Decart在內的多家客戶已率先採用第三代Trainium晶片及系統,並顯著降低了推理成本。此外,AWS還主動披露了下一代晶片Trainium 4的開發進展。據悉,Trainium 4預計於2027年開始交付,這款下一代產品將帶來性能的重大躍升,並將支援輝達的NVLink Fusion高速晶片互聯技術。這也意味著,Trainium 4的系統不僅能與輝達GPU協同運行,還可以幫助AWS吸引那些基於輝達GPU開發的大型AI應用遷移至亞馬遜雲平台。如此一來,亞馬遜就進一步增強了其挑戰輝達的資本和能力。可以預見的是,輝達在AI晶片市場“一家獨大”的單極格局終將被打破,而亞馬遜則成為繼Google之後的又一重磅選手,而這也是其願意投入2000億美元去豪賭未來的原因所在。畢竟,對於經營業績嚴重依賴於雲端運算業務的亞馬遜來說,這場愈演愈烈的AI“軍備競賽”已經是一場輸不起的戰爭。 (礦石商業評論)
一篇瞭解中美AI競爭格局的科普文
按:近期,字節跳動推出的多模態視訊大模型 Seedance 2.0 在2026年初引爆全球開發者社區,被視為中國AI原生創新的標竿,彰顯本土技術從“追趕”邁向“引領”的潛力。很多人感興趣當前中美AI企業的競爭形勢究竟如何?以下分享來自巴克萊的最新研報,算是瞭解當前中美AI創新企業競爭格局的科普文。其實自2022年ChatGPT公開發佈以來,人工智慧(AI)已成為推動全球股市盈利增長、資本支出(capex)和投資回報的主要引擎。進入2026年,隨著生成式AI技術從實驗階段邁向規模化部署,中國科技公司正迅速崛起,挑戰美國在全球AI競賽中的主導地位。然而,這一處理程序並非一帆風順:全球AI相關企業估值持續攀升的同時,美國AI公司面臨融資壓力,而中國同行則在艱難的定價環境與不斷調整的稅收政策中艱難前行。在本篇報告中,巴克萊從回顧美中股市(尤其是各自科技類股)近期的表現趨勢;對比了西方與東方市場的AI融資架構,以幫助理解AI投資如何塑造當前市場動態;到深入分析中美AI技術堆疊的技術細節;隨後探討中美雙方在AI採用、普及及變現前景上的不同路徑。最後,巴克萊認為,供給約束、市場邊界侷限以及使用模式差異共同導致中國AI生態在資本投入和算力消耗規模上與美國存在顯著差距。這一差距不僅體現在當前支出水平,也可能影響未來技術迭代與生態競爭力的長期格局。一、股市表現與估值自2022年底ChatGPT發佈以來,美股表現強勁。標普500指數的未來12個月市盈率(NTM P/E)從2022年第三季度末的15.3倍擴張至目前的21.7倍,AI是關鍵推動力。其中,超大型科技股(mega-cap Tech)在指數表現和盈利貢獻中佔據了不成比例的高份額。具體來看,“Big Tech”(大型科技公司)對標普500每股收益(EPS)的貢獻佔比從2022年第三季度的約12%躍升至2025年第四季度的約30%。同期,Big Tech的NTM市盈率從22.9倍上升至27.3倍;而科技類股中其他公司的市盈率也從15.4倍顯著擴張至24.5倍。相比之下,恆生指數(HSCI)自2022年以來的表現更為波動,其中2023年成為拖累三年整體回報的關鍵年份。當年中國經濟放緩導致中資股票大幅走弱:恆生指數最大回撤達-28.2%,而標普500同期僅為-10.3%。儘管如此,自2022年第三季度末以來,恆生指數已累計上漲約68%,表現健康,但仍落後於美股。與美國類似,科技股在中國股市也是推動回報的主要力量——過去三年,該類股是恆生指數中表現最好的行業之一,累計漲幅達96.7%。然而,一個關鍵區別在於對整體指數回報的傳導效應:恆生指數的行業分佈遠不如標普500集中於科技類股。標普500約33%的市值集中在科技行業,而恆生指數中科技股權重僅為5%左右。相比之下,金融和可選消費類股合計佔恆生指數市值權重的47%。這意味著,中國經濟的整體狀況及其消費者信心對恆指表現的影響,遠大於科技公司。若單獨比較標普500與恆生指數中的科技類股,差距更為顯著:自2022年第三季度末以來,美國科技股絕對回報高達約172%,大幅領先中國同行。這一分化背後,美國AI熱潮無疑是核心催化劑,而中美之間的貿易緊張局勢進一步加劇了這一鴻溝。美國的出口管制限制了中國獲取先進計算晶片和半導體製造裝置的能力,對部分中國AI技術堆疊(尤其是算力層)構成了明確的制約。美國在AI研發和盈利方面的領先地位,對中國企業而言可能難以快速彌合。我們認為,考慮到近期估值的重新定價,中國科技股中任何所謂的“AI溢價”都顯得更為脆弱,且更依賴經濟周期,相較之下,美國科技股的AI估值支撐則更具結構性和可持續性。二、AI投資:東方與西方之比較作為一項早期技術,AI的發展高度依賴持續的投資與資金支援。我們將中美兩國的AI支出劃分為兩大類進行對比:政府支出與非政府支出。核心區別在於:美國的技術投資主要由非政府主體驅動(即超大規模雲服務商的資本開支),而中國的科技基礎設施建設則更多受到政府主導型資金的引導。1、非政府支出我們估算,過去三年美國主要超大規模雲服務商(包括Meta、Alphabet、亞馬遜、微軟和Oracle)的資本開支總額從1281億美元大幅擴張至3922億美元,並預計2026年將增長約52%,2027年再增長約19%。中國的主要超大規模企業包括騰訊、字節跳動、阿里巴巴和華為。我們估計,2025年:1)騰訊資本開支為120億美元,2)字節跳動為120億美元,3)阿里巴巴為180億美元。4)華為作為非上市公司,披露的財務資料口徑不同,但其2024年年報顯示研發支出達1797億元人民幣(約合257億美元),較2022年的1615億元人民幣增長10.8%。展望未來,阿里巴巴和騰訊預計將成中國AI投資的主要推動力。例如,阿里巴巴已宣佈計畫在未來三年(2025–2027財年)投入3800億元人民幣用於AI和雲端運算基礎設施。此外,中國的國有電信營運商(如中國移動、中國電信)也是資料中心投資的重要來源,我們將在後文進一步討論。儘管中美超大規模企業的資本開支增速相近,但總支出規模仍嚴重偏向美國——美國雲巨頭正持續大規模擴建算力基礎設施,並投資下一代AI晶片,而中國企業在高端算力獲取受限的背景下,整體投入體量仍明顯較小。2、政府支出由於中美在AI投資模式上存在根本差異,兩國政府支出難以直接對標。我們觀察到,中國政府對AI及科技領域的財政支援主要通過三種形式實現:1)直接政府投資:由地方政府設立的市級或省級科技產業基金;2)政府背景的風投/私募基金:通過國有投資平台募集並管理的資金;3)面向高校與科研機構的公共科研經費:用於支援基礎科技與前沿研究。基於這一框架,我們彙總了若干主要資金來源,包括:1)國家積體電路產業投資基金(“大基金”)三期;2)北京人工智慧與機器人產業基金等重點城市及科技樞紐的省級基金。據此估算,未來十年中國政府主導的科技投資承諾總額至少達9480億元人民幣(約合1350億美元),資金來源涵蓋直接財政撥款與政府引導撬動的資本。其中:1)政府引導基金是最大來源,規模約6100億元人民幣(佔總額的64.3%),計畫在未來5–10年逐步投放;2)直接投資佔比11.6%;3)其餘部分為高校與科研機構的公共研究經費。需要指出的是,這只是一個粗略估算,實際政府投入可能遠高於此。例如,我們的測算未包含“國家創業投資引導基金”——該基金目標是在未來20年內撬動1兆元人民幣(約1420億美元)支援科技創新項目。若政策性金融動員目標全面落地,中國官方對AI生態系統的支援力度可能被顯著低估。美國政府對AI基礎設施的投資主要通過《晶片與科學法案》(CHIPS Act)實施。該法案撥款約520億美元聯邦資金,用於支援半導體製造激勵、研發補貼及針對晶圓廠和裝置製造商的稅收抵免。截至目前,這項政策已撬動數千億美元的私人投資。自2022年8月法案頒布以來,大部分撥款已獲批或分配,但由於採用基於里程碑的支付機制,實際資金撥付預計將延續至未來數年。除CHIPS法案外,美國政府預計每年還將額外投入數十億美元用於與AI相關的各類項目,包括清潔能源稅收抵免、基礎設施與電力投資,以及國防部(DoD)和國家科學基金會(NSF)的專項經費。簡言之,美國在AI領域的資金投入憑藉超大規模雲服務商的資本開支和強勁的私人投資,總體規模遠超中國;而中國則更依賴政府主導的財政承諾來縮小差距。三、中美AI技術堆疊在接下來的部分中,我們將深入分析中美AI技術堆疊的技術細節,並比較其應用普及與分發模式。我們聚焦於AI生態系統的三個核心維度(或層級):應用層(Applications)、模型層(Model Layer)、算力層(Compute Layer)。1、應用層(Application Layer)(1)月活躍使用者(MAU):中國AI聊天機器人使用者規模遠小於西方同行,且高度集中於本土。根據第三方2025年9月的估算資料:DeepSeek全球月活使用者(MAU)達約2.49億(涵蓋App與網頁端),在中國AI聊天機器人中排名第一;字節跳動的 Doubao 約1.99億;騰訊的 Yuanbao 約4900萬;月之暗面(Moonshot AI)的 Kimi 約2300萬。相比之下,西方主流產品同期表現如下:ChatGPT MAU約7.99億;Gemini約3.01億;Grok約4900萬(見圖14)。這意味著,中國領先的AI聊天機器人使用者規模僅相當於ChatGPT同期的約30%。儘管第三方資料可能存在偏差,僅可作為趨勢參考,但結合企業最新披露:ChatGPT在2025年10月宣佈周活躍使用者(WAU)已達8億,Gemini在2026年2月MAU突破7.5億,表明西方AI聊天機器人的擴張速度仍在加快。此外,ChatGPT使用者高度全球化——據《The Information》報導,其近90%的使用者來自美國和加拿大以外地區。而中國聊天機器人的使用者幾乎全部集中於境內,海外滲透率接近於零,唯一例外是DeepSeek:其海外MAU達約5200萬,與Grok同期流量相當,佔其總使用者的約21%。(2)移動端 vs 網頁端:中國AI使用以移動端為主導。QuestMobile資料顯示,2025年9月中國移動端AI使用者達7.29億,約為PC端(網頁及桌面應用)使用者的3.6倍。比如Doubao 在移動端流量領先,其移動MAU是網頁端的6.5倍;DeepSeek則在網頁端表現最佳,但其移動MAU仍是網頁端的2倍。這凸顯了中國AI應用具有鮮明的“移動原生”和“消費者導向”特徵。相比之下,西方模型在網頁端的工作流場景中參與度更高:ChatGPT、Gemini和Claude的網頁端MAU均顯著高於移動端(見圖14),反映出其在生產力工具和工作流程整合方面的更強滲透力。(3)贏家通吃?頭部效應顯著,使用者黏性極強。當前,無論東西方,AI聊天機器人使用者高度集中在前兩名玩家手中,且使用者表現出極強的產品黏性。在中國,DeepSeek與Doubao 合計佔據獨立AI聊天機器人絕大部分MAU(涵蓋網頁與移動);在西方,ChatGPT與Gemini 主導市場。值得注意的是,儘管各大語言模型(LLM)在基準測試中持續刷新性能紀錄,但聊天機器人端的使用者遷移意願極低——這很可能源於產品設計優勢和已形成的使用習慣。然而需提醒的是,中國AI應用的使用者規模仍遠小於海外領導者,也遠低於國內成熟超級App(如微信日活超10億)。市場仍處早期階段,增長路徑可能隨時間演變。為此,阿里巴巴、騰訊、百度等科技巨頭已在2026年春節假期推出“紅包引流”活動,以爭奪AI使用者。具體使用者增長動態如下:移動端方面:Doubao在2024年12月MAU為7500萬,到2025年9月迅速增至1.72億;36氪報導稱其DAU已於2024年12月突破1億。騰訊Yuanbao從2024年12月的200萬MAU增長至2025年9月的3300萬。Kimi和百度文心一言(Wenxiaoyan)的MAU則出現下滑。DeepSeek無疑是此階段使用者增長的最大黑馬:自2025年1月上線後,其中國區MAU從1月的約3400萬飆升至9月的1.45億。阿里通義千問(Qwen):截至2025年9月MAU僅300萬,但在2025年11月重新發佈後,2026年1月MAU已突破1億。(4)嵌入式應用 vs 獨立聊天機器人:在中國,嵌入現有超級App內的AI功能(如AI搜尋、智能助手) 遠超獨立聊天機器人。我們認為,中國的AI使用者流量高度依附於既有消費平台,AI能力被直接整合到微信、抖音、百度App等“超級App”中。例如:百度的AI搜尋在2025年9月達到3.47億MAU,佔其整體搜尋流量的一半以上;百度還披露,截至10月底,約70%的移動端搜尋結果頁已包含AI生成內容。字節跳動在其抖音App內推出的Doubao AI搜尋,MAU達2.15億。騰訊微信的AI搜尋MAU為1.66億。阿里巴巴也在支付寶、高德地圖(Amap)、夸克(Quark)等多個核心應用中全面嵌入AI功能。這些管道極大地加速了AI在中國大眾市場的普及,且相關AI功能普遍免費使用。但這也可能導致AI使用高度依賴平台生態,難以培育出真正獨立的AI品牌。(5)變現模式:中國聊天機器人基本免費,海外使用者付費意願更強。在中國,大多數通用AI聊天機器人(如DeepSeek、智譜Zhipu)目前仍免費開放,以最大化使用者覆蓋和分發規模。根據智譜在港交所IPO檔案披露,儘管AI助手和工具不斷湧現,中國使用者對大語言模型(LLM)的付費意願依然很低。因此,其收入主要來自企業客戶的API呼叫和本地化LLM部署服務。對於大型科技公司而言,AI變現主要通過雲端運算服務和API消耗實現。例如阿里巴巴和百度,當企業客戶擴大模型訓練、微調和推理工作負載時,它們便從中獲得收入。此外,AI也正在賦能現有業務:提升廣告與搜尋推薦效果;為電商提供智能化廣告工具;最佳化客戶服務體驗。不過,MiniMax是一個例外。根據其IPO檔案,2025年前三個季度約70%的收入來自面向消費者的AI產品。但值得注意的是,這些消費端收入幾乎全部來自音訊、圖像、視訊及AI陪伴類應用,而其通用AI聊天機器人/智能體應用“MiniMax”的變現貢獻僅佔總收入的1%。更關鍵的是,在其AI原生產品收入中,超過80%來自中國以外市場,這清晰表明:海外消費者對AI服務的付費意願顯著高於中國使用者。2、模型層(Model Layer)(1)中國開源社區 vs 美國閉源模式中國的大語言模型(LLM)生態明顯趨向開源發展。眾多領先初創企業(如 DeepSeek、月之暗面 Moonshot AI、MiniMax、Z.ai)以及超大規模科技公司(如阿里巴巴、騰訊、百度、字節跳動)紛紛將其最新或接近前沿的模型開源,以加速集體創新。這種策略促進了學術界和商業界的廣泛採用,支援快速迭代,並借助開源社區的集體力量推動模型技術進步。不過,中國超大規模企業普遍採取混合策略:其最先進、高算力消耗的旗艦模型(如阿里通義千問 Qwen3-Max、百度文心 ERNIE-5.0、騰訊混元 HY-2.0-Think、字節跳動 Doubao-1.8)仍保持閉源,以維持商業差異化優勢。政策層面,北京和上海在2025年12月分別發佈規劃,明確將在未來幾年大力發展開源生態,包括到2028年建構數百個行業專用的開源大模型,並向中小企業開放相關技術。相比之下,美國主要玩家——包括 OpenAI、Anthropic 和 Google——仍堅持閉源路線,嚴格保護模型權重不對外公開。(2)定價:DeepSeek輸出價格僅為GPT-5.2的3%中國領先的 LLM 提供商在價格上展開激烈競爭,近期發佈的基礎模型輸出定價普遍不到 GPT-5.2 的 30%。這種大幅折扣反映了其更高效的訓練成本結構和推理最佳化,有助於推動 AI 在中國的廣泛普及。具體案例:DeepSeek V3.2(2025年12月發佈):輸入價格:0.28美元/百萬token(為 GPT-5.2 的 16%);輸出價格:0.42美元/百萬token(僅為 GPT-5.2 的 3%;GPT-5.2 定價為輸入 1.75 美元、輸出 14 美元)。字節跳動 Doubao-Seed-1.8(2025年12月發佈):輸入/輸出價格分別為 GPT-5.2 的 7% 和 8%。即使是大型模型,如百度 ERNIE-5.0(2.4T MoE 架構)和阿里 Qwen3-Max(1T MoE),其輸出定價也僅為 GPT-5.2 的 約24%在美國方面:Anthropic 的 Claude Opus 4.5 定價處於高端;Google 和 OpenAI 的模型略低,但仍顯著高於中國同類產品。(3)模型性能:中國開源模型正快速縮小與美國前沿模型的差距我們參考兩個“人工分析”(Artificial Analysis)指數,從綜合智能水平(涵蓋英語、程式碼、數學、智能體任務、工具使用等基準)和智能體能力(agentic capabilities)兩個維度對比中美模型。DeepSeek 在2025年12月發佈的 V3.2 論文指出:過去幾個月,Anthropic、Google 和 OpenAI 的閉源模型進步速度快於中國開源模型。當前,GPT-5.2(High)和 Claude Opus 4.5 仍在綜合智能和智能體任務上保持領先,而開源模型整體仍處追趕狀態。但值得注意的是,部分中國模型已在關鍵指標上追平甚至超越部分西方中端模型:Kimi-K2.5、GLM-4.7、DeepSeek V3.2、Qwen3 Max Thinking 和 MiniMax-M2.1 在“綜合智能指數”上已達到與 Claude Sonnet 4.5 相當的水平。在智能體能力方面,中國模型進步尤為顯著:Kimi-K2.5、GLM-4.7、DeepSeek V3.2 和小米的 MiMo-V2-Flash 均優於 Gemini 3 Pro 和 Claude Sonnet 4.5。具體亮點:GLM-4.7:作為智譜(Zhipu)最新基礎模型,在開源模型中智能體任務表現突出。智譜於2026年1月8日成為首家在港交所上市的中國生成式AI公司。DeepSeek V3.2 針對閉源模型的三大結構性劣勢進行了創新突破:計算成本與長上下文效率:提出 DeepSeek Sparse Attention (DSA) 結構,顯著降低注意力機制複雜度;複雜任務性能:在後訓練階段強化了強化學習(RL);智能體能力:開發了一套新型合成訓練流程,包含1,800+ 種不同環境和85,000+ 複雜提示,將推理能力深度融入工具呼叫場景。此外,DeepSeek 還發表論文提出 mHC 架構,以更高效的方式擴展訓練並提升性能。Kimi-K2.5:可自主協調多達 100 個 AI 子智能體協同工作,每個子智能體能獨立使用工具進行搜尋、生成、分析和資訊組織。MiMo-V2-Flash:小米推出的開源高速推理與智能體大模型,總參數量達 3090 億,啟動參數 150 億。MiMo LLM 團隊負責人羅富麗(Fuli Luo)曾是 DeepSeek V2 模型的核心貢獻者。(4)智能水平 vs 成本效率:中國模型在實現具競爭力的智能評分的同時,展現出顯著更優的成本效益。有人可能會指出,儘管中國模型定價大幅折扣,但開發者評估模型整體效率和經濟性時,執行具體任務的實際成本(即“token效率”) 才是關鍵。圖21對比了各模型在“智能指數”(Intelligence Index)得分與其運行測試所需成本之間的關係:GPT-5.2 雖然取得最高的智能評分,但其運行成本也是所有東西方模型中最昂貴的。若以 Grok 4 的智能指數作為東西方模型的中位基準,則西方模型中,Gemini 3 Pro、GPT-5.1 和 Claude Sonnet 4.5 表現出較好的成本效率——在相對較低的運行成本下實現了高於平均水平的智能表現。DeepSeek V3.2 同樣實現了高於平均水平的性能,但其運行成本極低:僅為 GPT-5.2 的約 3%,也僅相當於 Gemini 3 Pro 的約 9%。總體而言,中國模型普遍以遠低於西方同行的成本運行,在性價比方面具備明顯優勢。(5)Hugging Face 下載資料:另一個有價值的參考指標來自 Hugging Face——全球領先的開源AI與機器學習模型平台。根據最近一個月的下載資料顯示(見圖22):阿里巴巴的通義千問(Qwen)系列佔據了熱門下載榜單的主要份額;其餘上榜模型主要來自 OpenAI、Meta 和 Mistral。值得注意的是,榜單上的大多數模型均為輕量級模型(參數量通常低於100億),這很可能是出於本地部署的實用性、硬體資源限制以及性能與效率之間的權衡。阿里巴巴通過其豐富且多層次的開源Qwen模型矩陣(涵蓋數百種變體及衍生模型),有效滿足了開發者多樣化的應用需求。另一方面,DeepSeek R1 在 Hugging Face 上獲得了累計最多的點贊數(likes),顯示出其在開源社區中的極高人氣與認可度。3、算力層 / 資本支出(Compute Layer / Capex)在本節中,我們嘗試估算中國領先AI企業為滿足其推理(inference)所需的年度總Token使用量及相應的GPU叢集規模。我們採用自下而上的方法,將每家公司的Token使用劃分為以下三類:1)第一方應用推理(1P Application Inference):指各公司在其自有AI助手(如字節跳動的Doubao、騰訊的Yuanbao)以及高流量App內嵌AI功能(如微信和抖音中的AI搜尋)所產生的Token消耗。我們估計,目前1P應用推理構成了中國AI公司推理算力需求的主體。2)公有雲MaaS(Public Cloud MaaS, Model as a Service):反映面向第三方企業客戶的模型商業化,主要來自外部API呼叫(如阿里雲的“百煉”、字節火山引擎的AI服務)。儘管該業務增長迅速,但目前仍僅佔整體Token使用量的很小一部分。3)內部訓練(Internal Model Training):代表這些公司的“固定”計算成本,包括基礎模型預訓練、持續的後訓練(post-training)和微調所需的Token消耗。不過,由於峰值推理需求才是GPU採購決策的主要驅動因素,而內部訓練通常可錯峰進行,因此我們在後續GPU需求測算中不將其納入考量。1)第一方應用推理的算力需求在上述三類中,1P應用推理所需的算力最多,也是推動Token用量和GPU需求快速上升的核心驅動力。除DeepSeek外,中國主要AI玩家均為成熟的網際網路巨頭,它們不僅營運自有AI聊天機器人,還在旗下眾多移動與PC應用中廣泛部署AI功能,覆蓋電商、社交、內容、地圖等多個垂直場景。以騰訊為例:其移動端AI助手“元寶”(Yuanbao)截至2025年9月MAU達3300萬(QuestMobile資料);同時,騰訊在其旗艦應用微信(MAU超14億)中推出AI搜尋功能,已有超過1700萬使用者使用過該功能。為估算這些公司1P應用產生的總AI查詢量,我們做出以下關鍵假設:日活/月活比率(DAU/MAU,即日活滲透率):根據應用普及度不同,該比率約為20%至60%。應用規模越大、使用者體驗越好,使用者黏性越強,日活滲透率越高。例如,媒體曾報導Doubao在2024年12月DAU已突破1億,而其2025年9月MAU為1.72億,意味著其DAU/MAU比率可能已超過50%,接近60%。作為參照,Similarweb資料顯示,ChatGPT在2025年8月的DAU滲透率接近44%;同期DeepSeek的DAU滲透率約為20%,但此後很可能已顯著提升。每位日活使用者的日均互動強度:假設每位DAU每天使用移動或桌面App 3–4次,每次平均進行5輪對話,即每天產生15–20次查詢。參照Axios在2025年7月援引的資料:ChatGPT每日處理約25億次查詢,相當於每位DAU每天15–20次查詢,與我們的假設一致。市場格局:頭部效應顯著根據我們的分析,Doubao和DeepSeek無疑是中國最受歡迎的兩大AI模型系列,分別處理了全國約60%和25%的AI查詢總量。需要強調的是,由於相關公司披露資訊極為有限,上述結論基於大量估算假設,最終數值應僅作趨勢參考。但我們認為,這一結果精準反映了當前中國AI行業的基本動態:市場高度集中,頭部兩家玩家很可能佔據了絕大部分份額。我們估計,文字/語音類查詢佔總查詢量的絕大部分,並驅動約80%的Token消耗。儘管圖像生成僅佔總查詢量的1%–2%,卻貢獻了約15%的Token用量,這主要是因為AI圖像生成(通過擴散模型)單次所需Token量極大。例如,使用2×2的圖像塊(patch size)生成一張1024×1024解析度的圖像,並進行20步擴散採樣,大約需要8萬個Token——相當於一本220頁的書的文字量。在文字/語音查詢中,我們認為深度推理類查詢(reasoning queries)佔比已升至總查詢量的約30%,這得益於推理模型在速度和精準性上的持續提升。作為參考,據Zebracat分享的Perplexity AI使用者資料顯示,2025年有29%的查詢與學術或研究相關,可作為合理基準。這類推理查詢顯著推高了Token用量:單次推理查詢平均消耗約1萬個Token,而普通訊息類查詢僅需約2000個Token。僅1P應用推理就已催生對H20 GPU的巨大需求即使僅考慮第一方應用推理需求,各公司也亟需大量輝達H20 GPU,並正激進擴大資本開支。以字節跳動為例:為支撐其每年超7,100兆(7,100T)的Token處理量,我們的測算顯示,該公司至少需要超過37.3萬張H20 GPU,才能滿足高峰時段的算力需求。我們採用了200%的峰均流量比(peak-to-average ratio),以反映結構性流量波動——例如工作日白天或晚間使用者活躍高峰——這要求企業必須大規模超配GPU,以保障使用者體驗。這一估算可與《南華早報》(SCMP)的報導相互印證:該報導稱,字節跳動2025年GPU預算約為850億元人民幣(約120億美元)。若其將全部晶片預算用於採購H20(每台8卡伺服器成本約16萬美元,含機箱、網路及其他基礎設施),我們估計其2025年實際採購量約為30萬至40萬張H20。報導還指出,字節計畫在2026年將預算進一步提升至超1000億元人民幣(約140億美元)。阿里巴巴則承諾在未來三年(2025–2027財年)投入3800億元人民幣用於AI相關資本開支,超過其過去十年的總資本支出。騰訊方面,最初在2025財年初指引全年資本開支佔收入比例為“低兩位數區間”(low-teens%)。但到2025年11月,公司下調了指引,雖低於原區間,但仍高於2024年的12%。管理層強調,這一調整完全源於AI晶片供應變化,而非AI戰略或未來Token需求預期的改變。此外,騰訊透露,微信計畫未來在其小程序生態中推出內建AI智能體(agent),覆蓋電商、支付及廣泛網際網路場景。考慮到微信MAU已超14億,我們估算此舉可能帶來每年約2,000兆Token(2,000T)的新增消耗,進一步推高其資本開支需求。2)公有雲/MaaS市場格局目前,中國公有雲MaaS(模型即服務)市場由字節跳動、阿里巴巴和百度主導。根據IDC發佈的資料,2025年上半年,字節跳動按Token用量計佔據約50%的市場份額。字節在2024年中率先發起價格戰,將其面向企業的模型API定價大幅低於競爭對手。儘管其他廠商迅速跟進並匹配價格,但字節成功吸引了大量高頻、價格敏感型API客戶。相比之下,阿里巴巴聚焦於提供最完善的開源模型與整合化雲解決方案:其通義千問(Qwen)系列擁有數百種變體和衍生模型,在Hugging Face上下載量居首,充分滿足開發者多樣化需求;同時提供整合的雲服務,包括底層安全與合規基礎設施,特別適合金融、汽車等傳統行業企業客戶。因此,儘管阿里處理的Token量可能低於字節,但其單位Token產生的收入更高,商業模式更具價值密度。目前,中國的公有雲/MaaS(模型即服務)在整體Token消耗和算力使用中僅佔較小份額。根據我們的測算,其佔比約為10%出頭,遠低於第一方應用推理(1P App Inference)的消耗量。不過,這一比例因公司戰略重心不同而有所差異:字節跳動和騰訊更側重B2C業務,其Token使用高度集中於1P應用推理和內部用途。這一點可從騰訊管理層近期表態得到印證:“我們的GPU資源實際上已足夠滿足內部需求……但外部雲業務收入仍受某些限制因素制約。”相比之下,阿里巴巴和百度在MaaS市場處於領先地位,且自有消費級App流量相對較小,因此其算力分配更為均衡,B2B與B2C之間的比例更趨平衡。由於公有雲/MaaS整體規模有限,各公司為此所需的H20 GPU數量也明顯較少,每家大約僅需1萬至2萬張。3)內部訓練:受限於晶片供應,佔比被迫壓縮在中國當前的市場環境下,內部模型訓練所佔算力需求比例相對較小,主要原因如下:GPU供應嚴重受限:所有中國公司都無法按需採購H20晶片;資源分配面臨兩難抉擇:是將大量GPU用於訓練以提升模型能力,還是優先保障面向使用者或企業客戶的推理服務?在激烈的中國消費網際網路競爭中,“先搶使用者、再最佳化體驗” 的策略已被反覆驗證有效。因此,大多數公司選擇將稀缺算力優先用於推理服務,以贏得“使用者爭奪戰”,同時通過演算法最佳化、資料提純等方式,在有限晶片條件下持續改進模型。面對算力約束,中國企業正積極探索高效利用已有NVIDIA晶片的方式,包括:逐步將部分H20轉向訓練任務,並用國產AI ASIC晶片(如華為昇騰、崑崙芯等)替代其在推理場景中的角色;利用為高峰推理預留的冗餘算力,在非高峰時段執行微調(fine-tuning)、知識蒸餾(distillation)等輕量級訓練任務。據媒體報導,幾乎所有中國頭部AI公司目前已部署華為晶片,例如螞蟻集團已部署數萬張昇騰晶片。如果中國監管機構批准企業向輝達下單採購H200(該型號已獲美國政府許可對華銷售),企業有望以更低資本開支實現同等性能。具體而言:一台8卡H200伺服器成本約為H20伺服器的2倍;但其理論算力(FP8/INT8)可達H20的約6倍;因此,在不考慮實際運行中MFU(Model FLOPs Utilization)差異的情況下,實現相同性能所需資本支出可減少約20%。路透社近期報導稱,中國科技公司計畫在2026年訂購約200萬張H200。但據我們瞭解,這些訂單仍需經中國監管部門審批——當局正在評估各企業的實際需求,相關流程仍在進行中。4)綜合算力需求估算綜合1P應用推理、公有雲/MaaS及內部訓練需求,我們估算:騰訊、阿里、百度等頭部AI企業各自約需10萬張H20;字節跳動需求更高,可能接近40萬張H20(此估算尚未包含其內部編碼、行銷自動化、AI工具鏈等潛在用途——這些需求可能相當可觀,但極難量化)。值得注意的是,部分公司的內部AI使用可能實際佔更大比重。正如阿里和騰訊所透露,在晶片短缺背景下,它們正優先保障內部AI應用,這可能意味著未公開的Token消耗遠超外界預期。若形勢進一步惡化,這些公司可能被要求主要甚至全部採購國產晶片。這將帶來新的挑戰:中芯國際(SMIC)的7奈米製程產能仍有限,儘管其計畫在2026年大幅擴產,但產能爬坡需要時間,供應瓶頸在擴產完成後仍可能持續存在。如果企業能夠:獲得足夠數量的國產晶片(如華為昇騰910C),並解決系統與模型層面的相容性問題,那麼在某些場景下,從H20切換至昇騰910C甚至可能降低約10%的資本開支。四、2026年展望:Token用量與資本開支預測我們預計,2026年中國主要AI公司的總Token生成量將同比增長約117%,達到25,221兆(25,221T),主要驅動力來自:AI聊天機器人App的普及;超級App(如微信、抖音、支付寶)內嵌AI功能的廣泛採用。相應地,這些公司的H20相關資本開支合計將達到約285億美元;若計入伺服器機箱、網路裝置及其他配套基礎設施等非GPU支出(約佔AI總Capex的另一半),整體AI相關資本開支預計將達約540億美元。當然,這一估算可能偏保守——如果類似美國的智能體(agentic)在中國快速流行,或對輝達晶片的採購限制有所放鬆,實際需求可能遠超預期。為何我們的Capex估算低於公司指引?投資者可能會注意到:即便在我們對使用者增長和使用強度做出樂觀假設的前提下,我們對阿里和騰訊2026年H20相關Capex的估算仍顯著低於公司官方指引或媒體報導的內部目標:阿里管理層指引未來三年AI Capex為3800億元人民幣(約合每年180億美元);騰訊2025年Capex佔收入“低兩位數百分比”,若2026年維持相同比例,按其收入規模推算,年Capex約為140億美元;《南華早報》亦報導稱,字節跳動2026年GPU預算將超1000億元人民幣(約140億美元)。這一差距主要可歸因於以下四點:1)公司整體Capex包含大量非GPU支出:GPU僅佔AI總Capex的一半左右,其餘用於伺服器機箱、高速網路、冷卻系統、資料中心建設等配套基礎設施。2)需疊加歷史基線Capex:公司披露的Capex目標包含其傳統業務(如遊戲、廣告、電商)所需的常規IT投入,並非全部用於AI。3)大量算力用於內部非AI大模型業務:企業還需為軟體開發、推薦系統、廣告平台、內容稽核、合規與法務等內部系統分配GPU資源,這些同樣產生可觀Capex。4)前瞻性投資策略:公司預期未來幾年AI需求將爆發式增長,因此選擇提前大規模投入,以搶佔生態位和人才。經上述因素調整後(見圖35),我們的測算結果與各公司Capex指引區間基本吻合。我們清楚地看到,中國企業在AI資本開支(Capex)方面明顯落後於美國同行。根據我們此前的估算及公司指引,中國四大領先AI企業(阿里、騰訊、字節、百度)——合計AI相關資本開支僅相當於彭博共識預測的2025年美國五大超大規模雲服務商(Meta、微軟、亞馬遜、Google、甲骨文)。而據彭博共識預計,這些美國雲巨頭在2026年還將同比再增加約50%的資本開支。造成這一差距的原因是多方面的:1)晶片供應受限:中國公司常常面臨硬體(尤其是高端AI晶片)供應瓶頸,即使預期業務將快速增長,也難以提前大量採購庫存,從而制約了資本支出規模。2)使用者基數與全球化程度差異顯著:美國企業服務的是全球使用者,使用者規模遠超中國公司。例如,《The Information》報導稱,ChatGPT近90%的使用者位於美國以外;其他媒體資料顯示,Google Gemini約87.5%的流量來自國際市場。相比之下,中國AI聊天機器人及App內嵌AI功能的使用者幾乎全部集中於境內,海外滲透率極低。3)使用者行為存在本質差異:美國使用者普遍將AI工具深度融入PC端日常工作流,頻繁發起複雜、高Token消耗的推理型查詢(如程式設計、研究、文件生成等),推動Token用量大幅攀升;中國使用者則主要通過移動端使用AI,多用於簡單任務(如問答、搜尋、娛樂),單次互動Token消耗較低,整體使用強度和複雜度不及西方。綜上,供給約束、市場邊界侷限以及使用模式差異共同導致中國AI生態在資本投入和算力消耗規模上與美國存在顯著差距。這一差距不僅體現在當前支出水平,也可能影響未來技術迭代與生態競爭力的長期格局。 (衛斯李的投研筆記)
OpenAI、Anthropic、Google“三國殺”,微軟“悶聲發財”丨a16z最新報告
矽谷知名風投a16z近日發佈了對全球2000強企業中100家公司CIO進行的第三屆年度調查報告,揭示了企業級AI競賽的幾個關鍵話題:市場正加速形成寡頭格局、企業支出繼續加速。報告的核心發現指出,OpenAI目前依然是明確的市場領導者,78%的受訪企業CIO正在使用其技術,但追趕者的勢頭非常兇猛,特別是Anthropic,其企業滲透率在短時間內實現了顯著增長。然而,在企業級應用的實戰中,真正的贏家是微軟。矽谷大佬的企業AI牌桌,圖片由AI生成憑藉Microsoft 365 Copilot和GitHub Copilot等深度嵌入企業工作流程的產品,以及企業客戶對信任、整合和採購便利性的天然偏好,微軟佔據了顯著優勢。與此同時,企業正在用真金白銀持續加大投入。資料顯示,企業在AI大模型上的平均支出在過去兩年快速增長,並預計今年將繼續大幅增加。以下為a16z報告的四大核心發現:01 模型之爭:OpenAI領跑,Anthropic和Google猛追企業AI模型,OpenAI依然是無法繞過的名字。根據調查,高達78%的受訪企業CIO正在生產環境中使用OpenAI的模型。但市場絕非一成不變,變局正在發生,勢頭最猛的挑戰者來自Anthropic。資料顯示,自2025年5月以來,Anthropic的企業滲透率猛增了25%,是增長最快的玩家。現在,44%的企業已在生產中使用其模型,若算上測試環境,這個比例超過了63%。就連企業錢包份額(預算分配)也在講述同樣的故事:OpenAI雖仍佔約56%的多數,但其份額正被Anthropic和GoogleGemini穩步侵蝕。受訪者普遍預計,這一趨勢在2026年還將延續。簡單來說,一個由OpenAI、Anthropic和Google構成的“三國殺”寡頭格局正在形成。這三家公司都在高速增長,共同瓜分著不斷做大的蛋糕,但彼此間的份額爭奪戰已“硝煙瀰漫”。02 應用落地:微軟成為“沉默的贏家”當輿論場熱衷於討論OpenAI與Anthropic的模型對決時,調查資料卻指向了一個被很多人忽視的“意外贏家”——微軟。資料顯示,全球2000強企業的大部分AI應用,依然通過微軟這樣的現有巨頭落地。微軟旗下的產品,如Microsoft 365 Copilot在企業聊天場景領先,GitHub Copilot在企業編碼領域佔據統治地位。企業選擇它們,並非單純因為技術最前沿,而是出於更現實的考量。65%的受訪企業明確表示,他們更傾向於選擇像微軟這樣的現有解決方案,理由高度一致:信任、與現有系統的無縫整合,以及採購流程的簡便。這說明,在企業級市場,“好用、省心、能整合”的實用主義,常常比“最新、最炫”的技術光環更有份量。不過,報告也指出,這並不意味著初創公司沒有機會。企業同樣渴望更快的創新和更靈活的AI原生解決方案,這為挑戰者們留下了突破口。03 “應用末日論”被誇大關於企業是應該自建AI能力,還是直接採購應用,一直爭論不休。一種流行的觀點認為,隨著基礎模型能力增強,第三方應用將失去生存空間。但a16z的調查報告發現,這種“應用末日論”被嚴重誇大了。軟體開發、法律等領域,第三方應用仍佔據絕對優勢,並未失去生存空間,企業採用正持續增長事實恰恰相反,資料顯示企業正持續轉向採購第三方應用,即使在知識管理、工作流自動化這些傳統上傾向於自研的領域,許多企業也計畫從“自己動手”轉向購買成熟的打包方案。背後的邏輯在於,成熟的第三方應用能提供企業自身難以快速建構的深度場景化能力,並能通過智能調度不同模型的優勢,為企業帶來更實際的業務成果。這場“自研”與“採購”的競賽,遠未到終局。04 支出真相:企業掏錢速度比預期快得多最能直接反映AI市場熱度的,莫過於企業掏出的真金白銀。這份調查最核心的發現之一,就是市場的實際增速遠超所有人預期,包括身處其中的企業和供應商自己。具體來看,過去兩年,企業在AI大模型上的平均支出已從約450萬美元飆升至約700萬美元。而他們對今年的預算更為激進,預計將再增長約65%,達到平均約1160萬美元。企業在AI應用上的支出同樣遵循這一軌跡,實際花費遠超預算。企業預計平均支出約390萬美元,但實際上支出了近600萬美元。這些數字表明,企業級AI已不再是“試水”項目,而是進入了規模化、常態化投入的快車道,需求的強度和持久力,證明了這並非曇花一現的熱潮。 (騰訊科技)
一個被輝達掩蓋的、中美AI最殘酷的物理真相……
在過去兩年裡,當我們在談論中美AI差距時,由於Nvidia GPU的顯性存在,我們幾乎把所有的目光都聚焦在了“算力鴻溝”上:因為製程封鎖,由於H100/H800的禁售,中國AI”似乎“被卡住了脖子。然而,就在所有人的眼睛都盯著矽(Silicon)的時候,大洋彼岸的華爾街和矽谷巨頭們,卻開始因為電子(Electrons)而焦慮。微軟CEO薩提亞·納德拉(Satya Nadella)在上一季的財報電話會議上,以及馬斯克在最近的長達3小時的《Moonshots》對話中,幾乎是明著說了:顯示卡不再是唯一的瓶頸,真正的瓶頸正在變成吉瓦(GW)等級的電力和帶電的資料中心。但在這個層面,也就是AI的基礎物理層,電力供應上,中美正面臨著完全相反的兩種“絕境”——美國面臨嚴重“缺電”危機,而中國卻擁有20倍的冗餘!但中國即便電費便宜,AI算力的能源成本卻可能比美國高出40%?這到底是怎麼回事呢?01. 美國需要一場AI曼哈頓計畫讓我們先看一組資料,這組資料來自麥格理(Macquarie)最新的估算:到2030年,中國AI發展所需要的電力增量,僅相當於過去五年中國新增發電能力的1%到5%。而在同一時期,美國AI發展所需要的電力增量,將佔據其過去五年新增發電能力的50%到70%。麥肯錫的最新預測更是表明,到2030,美國資料中心電力需求將翻兩番,達到80-100吉瓦(GW)請細品一下這組對比資料。如果你品出來了,就知道,中國在過去五年裡,為了這個AI時代提前儲備了近乎20倍於AI實際需求的電力冗餘。中國的電網,就像是一個蓄滿水的巨型水庫,AI這條“大魚”游進去,水位線幾乎紋絲不動。反觀美國,它的電網建設速度不僅緩慢,而且面臨著巨大的存量替換壓力。如果要把AI這個新的巨獸塞進美國的電網系統,它將一口吞掉整個國家未來幾年新增電力的大半壁江山。2023年,美國全年新增發電裝機容量約為51 GW(吉瓦)。同年,中國新增發電裝機容量達到了驚人的429 GW。8倍的差距。這是一個物理世界的降維打擊。所以當OpenAI的Sam Altman在四處遊說,聲稱需要7兆美元來重構晶片產業鏈時,他其實更應該擔心的是,即便有了晶片,他在美國那裡能找到足夠的電把它們跑起來?在美國弗吉尼亞州的“資料中心走廊”,電力公司Dominion Energy已經無數次發出警告,由於輸電瓶頸,他們可能無法及時為新的資料中心供電。而同樣的故事,正在全美各地重演。變壓器短缺、環保審批流程(NEPA)長達數年的拖延、老舊電網的各種物理限制,正在成為美國AI頭頂的“天花板”。但,中國已經“解決”了近期的AI電力供應問題。如果你是一個在中國做AI基礎設施的創業者,你可能還在為拿不到H100而頭疼,但你絕不會像你的美國同行那樣,因為申請不到市電擴容指標,而不得不去考慮自建核反應堆。02. 那怕電費為零中國AI的成本依然可能更高讀到這裡,我們中國的讀者可能會覺得:穩了。既然電力是AI的血液,而中國擁有龐大的造血能力,那我們在AI競賽中豈不是佔據了絕對的地利?且慢。這裡有一個巨大的“但是”。中國有電,但是,“電怎麼轉化成算力”(Efficiency)。這就要回到半導體物理學的基本常識。目前,美國頂級AI晶片(如Nvidia的B200/GB200)採用的是台積電最先進的4nm甚至3nm工藝。而受限於製程封鎖,中國的主流國產AI晶片不得不停留在7nm或更成熟的工藝節點上。製程落後不僅僅意味著單卡算力(FLOPs)的差距,更意味著能效比(Performance per Watt)的巨大鴻溝。在微觀層面,電晶體越小,驅動它所需的電壓越低,漏電率控制越好。反之,為了在落後製程上堆出同樣的算力,工程師必須堆疊更多的電晶體、拉高頻率、忍受更高的發熱。Weijin Research做了一個場景模擬:對比華為的CloudMatrix叢集(基於國產晶片)與Nvidia的GB200叢集。即便在最理想的最佳化下,要在同樣的算力輸出(FLOPs)上對標輝達,國產系統消耗的能源可能要高出100%甚至更多。這是一個非常可怕的乘數效應。一套完整的CloudMatrix系統可以提供Nvidia的GB200接近2倍的計算能力,但功耗是其4.1倍讓我們算一筆帳:假設美國的工業用電平均成本是每千瓦時0.12美元,而中國依靠強大的煤電和新能源優勢,將成本壓到了0.08美元(便宜33%)。但是,如果國產晶片跑同樣的模型需要消耗2.5倍的電力(能效比落後),那麼最終每生成一個Token,或者每訓練一個參數,中國的電力成本實際上是美國的140%。這就是“效率黑洞”。即使我們的電網裡流淌著世界上最充沛、最廉價的電子,但由於終端轉換裝置(晶片)的能效瓶頸,這些電子在轉化為智能的過程中,被大量的熱損耗浪費掉了。這就解釋了為什麼華為等中國巨頭在最新的技術白皮書中,瘋狂強調“液冷”、“系統級能效”、“叢集最佳化”。因為在單點物理能效無法突破製程天花板的情況下,必須通過系統工程(System Engineering)來補課。液冷 CDU,核心作用是 安全、精準、高效地將冷卻液輸送到伺服器晶片,並回收熱量但散熱也是物理限制。當一個機櫃的功率密度從10kW飆升到100kW甚至更高時,傳統的風冷徹底失效,資料中心必須進行傷筋動骨的液冷改造。這對於基礎設施的營運能力提出了地獄級的挑戰。03. 電網設計正在成為新的核心國力如果我們跳出單純的“晶片卡脖子”敘事,站在更高的維度——能源與計算的共生(Energy-Compute Symbiosis)來看待這場博弈,你就會發現:電力、電網設計和計算效率,正在成為AI時代的核心國家能力(Core National Capabilities)。我們先來看美國的策略面對陳舊的大電網,美國科技巨頭正在試圖“繞過”電網。亞馬遜買下了核電站旁邊的資料中心,直接取電。微軟和OpenAI正在投資核聚變和小型模組化反應堆(SMRs)。Google正在探索地熱供電。SMRs產生的熱量可用於燒開水、產生蒸汽、驅動渦輪機和發電機,從而在火力發電廠中發電這是一場“去中心化”的自救運動。美國正在倒逼其能源技術創新,試圖用技術突破來彌補基建的虧欠。如果SMR(小型核堆)技術一旦成熟,美國將解決算力能源的“最後一公里”問題。美國策略的關鍵詞是:分佈式突圍與核能復興中國這邊則在打一場完全不同的仗。我們擁有世界領先的特高壓(UHV)輸電技術,能夠將西部(甘肅、內蒙、四川)過剩的風光水電,跨越數千公里輸送到東部的算力中心,或者直接在西部建設“東數西算”基地。但這還不夠。中國的真正野心在於將AI嵌入到能源系統本身。比如,華為不僅僅在賣晶片,它在賣“數字能源”解決方案,把太陽能逆變器、儲能系統和資料中心溫控做成了一體化。寧德時代正在把電池塞進資料中心,作為UPS(不間斷電源)和削峰填谷的神器。比亞迪正在建構從太陽能板到儲能電站的閉環。華為的資料中心和能源基礎設施建設解決方案這是一種“全端式”的打法。中國正在試圖用極其強大的宏觀能源調度能力(Macro Energy Management),去避險微觀晶片能效(Micro Chip Efficiency)的不足。既然我的晶片費電,那我就把電變得更便宜、更穩定、更易得。用物理世界的“大力”,去出奇蹟。我們這裡的關鍵詞是:系統級碾壓與特高壓輸送04. 終局文章的最後,我們需要看到一個更深遠的趨勢。“當全世界都需要AI時,誰能提供‘交鑰匙’方案?”想像一下,未來一個開發中國家(比如沙烏地阿拉伯、巴西或東南亞國家)想要建設自己的主權AI。他們面臨兩個選擇:選項A(美國模式):花費巨資購買Nvidia的H200晶片(如果美國商務部批准的話),然後自己解決頭疼的電力供應問題,自己去搞定電網擴容,自己去建設昂貴的液冷設施。這對於很多基建薄弱的國家來說,是不可承受之重。選項B(中國模式):中國公司提供一套“交鑰匙”方案(Turnkey Solution)。我不只賣給你AI伺服器(雖然能效稍差一點,但也能用),我還打包賣給你配套的:一片GW等級的太陽能電站;一套巨型的儲能電池系統;一套全液冷的資料中心基礎設施;甚至是特高壓輸電網路。這不僅僅是賣鏟子,這是把“礦山”和“運礦車”一起打包賣了。在“一帶一路”沿線,這種“綠色能源+數字基建”的組合拳,正展現出極強的競爭力。美國或許在晶片的最尖端擁有無可比擬的統治力,但中國正在掌握“將算力落地為物理現實”的完整產業鏈。中國提議在全球範圍內建構AI驅動的衛星巨型網路,惠及所有人回到文章開頭,AI的戰爭絕不僅僅發生在幾奈米的微觀世界裡,同樣發生在高聳的輸電塔、連綿的太陽能板和轟鳴的變壓器之間。美國焦慮的是“無米下鍋”——有最好的爐子(晶片),但缺柴火(電力)。中國焦慮的是“柴火利用率”——有堆積如山的柴火,但爐子的熱效率不夠高。這兩種焦慮,將塑造未來十年兩個超級大國的科技樹走向。值得注意的是,對於中國的產業界而言,不要因為我們在電力基建上的巨大優勢而沾沾自喜,從而忽視了晶片能效落後帶來的長期成本黑洞;但也絕不要妄自菲薄,因為在即將到來的“能源算力時代”,我們有牌可打。遊戲,才剛剛開始。 (TOP創新區研究院)
DeepMind CEO 在 CNBC 算 4 筆帳:這輪 AI 競賽,錢到底花在那?
最近 AI 圈最熱的詞,已經不是更強,而是更賺錢。2026 年 1 月 16 日,CNBC 新上線了一檔播客《The Tech Download》,定位很明確:不談概念,只談錢。第一期請到的嘉賓,是 Google DeepMind 的 CEO Demis Hassabis。Hassabis 沒有談技術概念,而是在算四筆投資帳:AGI 缺的能力,該投什麼模型商業化,成本花在那能源瓶頸,資源配在那AI 競爭,優勢建在那這四筆帳,指向同一個核心:這輪 AI 競賽,錢到底該花在那?第一筆帳|AGI 還缺什麼能力?專訪剛開始,主持人問出一個所有人都關心的問題:我們的大模型已經這麼強了,還能更好嗎?AGI 是不是快到了?Hassabis 的回答是:大模型的能力,其實有明顯短板。他說,這些 AI 工具在某些問題上能給出驚豔的表現,但你換個問法,或者稍微複雜一點,它立刻就不行了。他把這叫做:參差不齊的智能(jagged intelligences)。說白了,這種智能還不夠靠譜。能答題,但不能舉一反三;能寫論文,但不能自己提一個真正新的點子。1、通用智能,得能自己提問題Hassabis 認為,真正的通用 AI,必須具備一項能力:能自己提出問題,能假設世界可能如何運轉,然後想辦法去驗證它。也就是說,它不能只是答你問題,還得能自己思考問題是什麼。他說,現在的大模型,連持續學習都做不到。你教會它一件新事,它很快就忘了;它不會像人一樣積累經驗。這也是為什麼,DeepMind 近兩年開始把重點從 LLM 轉向另一個方向:做一個懂得世界如何運轉的 AI。2、世界模型,不是懂語言,是能想像他用很通俗的方式講了世界模型這個概念:“就像人類科學家,能在腦海中推演如果這樣,那會發生什麼,AI 也得具備這種能力。”不是理解你說什麼,而是能根據它自己對世界的認識,去預測接下來會發生什麼、什麼東西會影響什麼結果。這聽起來有點抽象,但它已經落地到了 DeepMind 的幾個核心方向裡:Genie: 能與虛擬環境互動的模型,相當於在玩遊戲的同時理解規則AlphaFold: 當年用 AI 去預測蛋白質折疊結構,其實也是讓模型理解形狀為什麼會變成那樣Veo: 文字生成視訊,不是湊鏡頭,而是讓 AI 根據因果關係決定下一秒畫面該變成什麼這些看起來不一樣的項目,其實在做同一件事:讓 AI 像人一樣理解世界,而不是只會背答案。3、AGI 不靠湧現,靠組合Hassabis 相信:單純擴大模型規模,不會自動產生通用智能。真正有可能做出 AGI 的,是讓多個模型各司其職、協同工作:LLM 負責語言和基礎理解視訊模型負責時間序列、物理直覺世界模型提供模擬、推理、預測的能力只有這些能力拚圖逐步接上,通用智能才會是可靠的,而不是看起來聰明但漏洞百出。對大多數人來說,AGI 是比人更聰明的 AI;但對 Hassabis 來說,AGI 是能自己提出新想法的 AI。這就是 DeepMind 把世界模型當成下一步主線的原因。它不只是一個新模型,而是一個核心能力:能不能站在世界的角度去理解,而不是被動回答。第二筆帳|模型怎麼賺錢?不是更強,是更划算技術路線是一回事,但商業落地是另一回事。AI 要走向通用,不只是越來越聰明,還要用得起。Demis Hassabis 講了 DeepMind 的產品策略:不是只推 Pro 版,而是同時做 Flash 版。這不是大小模型的高低之分,而是為了讓更多場景能用得起。能大規模部署、覆蓋場景的模型,必須夠輕、夠快、夠省。1、Flash:用強模型教出主力模型Hassabis 形容:用最強的模型訓練出一個更高效的版本,就像用大腦教出一個更靈巧的分身。這個過程在技術上叫蒸餾,但他更關注的不是技術本身,而是能否落地:訓練出來的模型可以被廣泛部署,成為主力使用的版本。比如 Gemini 模型線:Pro 版本,是給複雜場景或前沿應用準備的Flash 版本,是給終端使用者、高頻任務提供服務的2、商業化不是賣模型,而是讓模型進產品“AI 不該永遠停在網頁對話方塊裡。”Hassabis 說:未來我最看好的方向之一,是讓 AI 真正進入手機、眼鏡這些裝置裡。也就是說,未來不是你去找 AI,而是 AI 就在你手邊、螢幕裡、日常動作之間。DeepMind 已經和三星、Warby Parker 等品牌展開合作,探索裝置端 AI 的可行性。這說明 DeepMind 的商業路線,不只是 API 售賣,更看重模型與產品深度結合。3、AI 不止省人力,還要省資源Hassabis 說,效率是 Gemini 全線設計時的最高優先順序,尤其是 Flash 系列。推理更快能力更平衡能耗更低DeepMind 對 AI 商業化的看法不是卷功能,而是算總成本:一個模型能做什麼不重要,重要的是它能成本可控、能落地、穩定可靠。從 Flash 的設計、蒸餾策略,到裝置端合作、能效優先,Hassabis 給出的不是模型路線圖,而是使用路線圖。他沒有強調模型有多強,而是圍繞:怎麼讓 AI 被真正用起來?這才是商業化起步的基礎。第三筆帳|能源問題,AI 能自己解決嗎?Flash 版本解決的是模型本身的能耗,但這還不夠。Demis Hassabis 明確表示:隨著我們走向 AGI,能源將等同於智能。智能越強,耗電越大。這是繞不開的物理規律。1、AI 不缺模型,最缺的是電不夠晶片永遠不夠。Hassabis 直言,即使 Google 有自己的 TPU 系列和 GPU,全球的計算晶片仍然供不應求。追根溯源,真正的瓶頸是能源:GPU 再多,也要靠電運行資料中心再大,也受限於電力供應模型再強,如果成本壓不下來,也只能停留在實驗室這不只是 Google 的問題,而是整個行業的天花板。當每家公司都在競相擴大算力、訓練更強的模型時,能源供應能不能跟上,決定了誰能真正把 AGI 從實驗室帶到現實世界。而這一點,正在成為 AGI 能否大規模應用的關鍵障礙。2、DeepMind 另一個野心:用 AI 去找能源如果 AGI 需要海量能源,那就讓 AI 自己去解決。DeepMind 的策略分兩個方向。開源:生產新能源與美國 Commonwealth Fusion 公司合作,用 AI 控制核聚變反應堆中的電漿體。核聚變一旦實現,將提供幾乎無限的清潔能源。Hassabis 的個人項目:能不能靠 AI 找出室溫超導材料。如果成功,將徹底改變電力傳輸和儲存方式。重新設計太陽能材料,大幅提升能源轉化率。節流:提高能源效率最佳化電網、資料中心、能源系統的運行效率,減少浪費尋找降低能耗的新型晶體結構幫工業最佳化生產路徑,減少不必要的能源消耗AI 不只會消耗資源,它也可以反過來推高資源效率。這不是第一次。從 AlphaFold 預測蛋白質結構,到現在尋找能源突破,Hassabis 始終相信:AI 是科學發現的終極工具。當每家公司、每個企業都要部署自己的大模型,競爭的關鍵變了:誰能讓AI更省電,誰就能部署更大規模誰能把每度電用得更值,誰就能活得更久最終,智能不是在比聰明,而是在比划算。能源供應能不能跟上,決定了這場技術升級能走多遠。而 DeepMind 的答案是:讓 AI 自己去解決能源問題。第四筆帳|競爭的關鍵:整合、部署、活下來技術路線之外,還有競爭格局。過去幾年,OpenAI 在消費端領先。憑藉 ChatGPT,迅速繫結微軟,推出 API、外掛、GPTs 商店。Google 顯得慢了半拍。但 2025 年底,風向變了。Gemini 3 上線時,同步進入 Google 搜尋、Android系統、Gmail、Workspace……全線鋪開。Hassabis 透露:過去兩三年,他做的最大變化不是研發方向,而是內部整合。1、DeepMind :從研究所到引擎室過去三年,Hassabis 只專注一件事:把 Google Research、Google Brain、DeepMind 三支團隊整合成一個 Google DeepMind。這不只是團隊整合,還包括重建Google的整個 AI 基礎設施。整合的結果:所有 AI 技術由 DeepMind 統一開發技術完成後,直接擴散到Google所有產品中Hassabis 與 Sundar Pichai(Google CEO)幾乎每天對話,決定技術方向和產品配置過去是三個團隊分頭做 AI,路線重疊、資源分散。現在是一個引擎室,統一調度。更關鍵的是速度。 Hassabis 說,他們每天調整路線圖和計畫。這不是大公司的穩健打法,而是初創團隊的衝刺節奏。目標只有一個:快速且安全地實現 AGI。Google AI 產品發佈效率實現了質的提升。2、模型強,部署要更快為了實現快速部署,DeepMind 建立了一個“骨幹網”,讓 AI 技術能夠快速擴散到Google所有產品中。Hassabis 把 Gemini 3 的發佈節奏形容為同步投放:模型訓練完成,第二天就能上線到搜尋、Gmail、Workspace不用二次改造,不用跨團隊溝通,一步到位這在以前是做不到的。Hassabis 說,他們在 Gemini 2.5 時才真正進入這個狀態。在此之前,模型和產品之間還有大量銜接工作。這種效率來自兩個優勢:第一,DeepMind 掌握從晶片到模型的完整技術堆疊。技術自主,不用等外部配合。第二,Google 的產品矩陣本身就是現成平台。搜尋、Android、Chrome、YouTube……AI 能力可以立刻接入,同步推送到數十億使用者。當 OpenAI 還在一個個談合作時,Google 已經完成了部署。Hassabis 說,接下來 12 個月,AI 能力會擴散到更多 Google 產品中。3、中國AI,落後幾個月意味著什麼談到中國的 AI 發展時,Hassabis 認為:中國領先實驗室,可能只落後幾個月。這意味著:在訓練效率、模型能力、部署速度上,差距正在快速縮小。DeepSeek 的低成本訓練方案、阿里巴巴的開源模型,都展示了中國團隊的工程能力和追趕速度。同時,Hassabis 也指出了下一個階段的關鍵:從復現技術到原創突破。他認為,發明一個新技術的難度,可能是復現它的100倍。中國實驗室已經證明了復現能力,接下來的問題是:能不能像當年發明Transformer那樣,創造出新的架構或方法?這不只是對中國的問題,也是對所有 AI 實驗室的挑戰。對所有想贏的 AI 玩家,Hassabis 指出:不是誰發佈得多,而是誰能讓產品真正跑起來不是誰融資多,而是誰能在泡沫之後還活著OpenAI 壓力很大,Anthropic 產品也很快,中國模型確實在追。但 DeepMind 的打法不是分散應對,而是整合優勢:統一的產品線、自有的平台、一步到位的部署。在 AI 這場長跑裡,活下來比跑得快更重要。結語|這輪 AI 競賽,錢該花在那四個地方Demis Hassabis 給出了四個方向:技術上,投資能理解世界、提出新想法的能力,不要只堆資料商業上,投資模型的部署效率,而不只是追求性能資源上,投資能源技術和能效最佳化,智能規模取決於每瓦電的價值競爭上,投資整合能力和產品閉環,而不只是發佈速度這四筆帳,DeepMind 給出了自己的答案。其他玩家怎麼選,決定了他們能走多遠。 (AI深度研究員)